Menú móvil

El Notario - Cerrar Movil
Por: MANUEL GONZÁLEZ-MENESES GARCÍA-VALDECASAS
Notario de Madrid


INTELIGENCIA ARTIFICIAL Y MÉTODO JURÍDICO

En un número de la revista Wired del ya muy lejano año 2008 apareció un premonitorio artículo del por entonces redactor jefe de dicha publicación, Chris Anderson, con el título “The end of theory. The data deluge makes the scientific method obsolete”. Como anunciaba su provocador título, el artículo se ocupaba de una cuestión de epistemología o teoría de la ciencia.

Se abría con una célebre cita del estadístico británico George Box de hacía unos treinta años: “Todos los modelos están equivocados, pero algunos son útiles”. Con ello se hacía referencia a cómo toda la ciencia que hemos venido practicando, desde las ecuaciones cosmológicas a las teorías del comportamiento humano, consiste en “modelos” mediante los que de forma consistente pero imperfecta conseguimos explicar cómo funciona el mundo que nos rodea. Y así ha sido -nos dice el articulista- hasta ahora. ¿Por qué hasta ahora (léase: año 2008)? Porque las compañías de hoy como Google, que han crecido en una era de datos masivamente abundantes, ya no han de conformarse con modelos equivocados o imperfectos. De hecho, no han de conformarse con modelo alguno.
Google y otras empresas de similar planteamiento son los hijos de la Era del Petabyte, una nueva era de la historia de la humanidad, diferente de todo lo anterior porque “más es diferente” (more is different). Y con este more o más se hace referencia al ingente incremento cuantitativo de la masa de datos digitalizados que nos resultan ahora accesibles, y que ya no se acumulan en disquetes, ni en discos duros, sino en la nube. Empresas como Google están tamizando toda esa información y tratando todo este enorme corpus como un laboratorio de la condición humana.

En la escala del petabyte, la información -nos decía- no es una cuestión de simple taxonomía y orden de tres o cuatro dimensiones, sino de “estadística dimensionalmente agnóstica”. Y lo que demanda es una aproximación completamente diferente: una que requiere que abandonemos la concepción de los datos como algo que podemos abarcar y visualizar en su totalidad. Nos obliga a contemplar los datos primero matemáticamente, para luego enmarcarlos en un contexto.
El caso que Anderson proponía como paradigma era la conquista del mundo de la publicidad por Google, para lo que se valió únicamente de las matemáticas aplicadas. Esta empresa no pretendió conocer nada sobre la cultura y las convenciones del sector de la publicidad: simplemente asumió que mejores datos y mejores herramientas analíticas ganarían la partida. Y tenía razón.

“Vivimos en un mundo donde ingentes masas de datos y matemáticas aplicadas están reemplazando a cualquier otra herramienta. Por tanto, ¡fuera con cualquier teoría sobre el comportamiento humano, desde la lingüística a la sociología! ¿Quién sabe por qué la gente hace lo que hace? La cuestión es que lo hace, y podemos rastrearlo y medirlo con una fidelidad sin precedentes. Con suficientes datos, los números hablan por sí mismos”

La filosofía en la que se fundamenta Google es que no sabemos por qué una página web es mejor que otra: si la estadística de links de acceso dice que lo es, ya es bastante. Ningún análisis semántico o causal resulta necesario. De la misma forma, Google es capaz de traducir idiomas sin realmente conocerlos (dado un corpus de datos equivalente, Google puede traducir de klingon -un idioma inventado de la saga Star Trek- a farsi tan fácilmente como de francés a alemán). Y por eso puede casar los anuncios con los contenidos sin conocimiento alguno ni de los anuncios ni de los contenidos.
Y de esta experiencia, el articulista obtenía una enseñanza epistemológica. Vivimos en un mundo donde ingentes masas de datos y matemáticas aplicadas están reemplazando a cualquier otra herramienta. Por tanto, ¡fuera con cualquier teoría sobre el comportamiento humano, desde la lingüística a la sociología! Olvidemos la taxonomía, la ontología y la psicología. ¿Quién sabe por qué la gente hace lo que hace? La cuestión es que lo hace, y podemos rastrearlo y medirlo con una fidelidad sin precedentes. Con suficientes datos, los números hablan por sí mismos.
Y el gran objetivo aquí no es la publicidad o el marketing, sino la ciencia. El método científico se ha construido sobre la base de hipótesis sometidas a examen (testable hypotheses). Los modelos a los que se hacía referencia al principio son en su mayor parte sistemas visualizados en sus mentes por los científicos. Esos modelos son luego puestos a prueba y los experimentos confirman o falsean los modelos teóricos sobre cómo funciona el mundo. Y esta es la forma en que la ciencia ha venido operando durante siglos.
Los científicos han sido educados en la idea de que correlación no es lo mismo que causación, que ninguna conclusión se puede obtener simplemente sobre la base de la correlación entre dos sucesos, que podría ser solo una coincidencia. Por el contrario, es preciso entender el mecanismo subyacente que conecta los dos sucesos. Una vez que tienes un modelo, puedes conectar los conjuntos de datos con confianza. Los datos sin modelo son solo ruido.
Pues bien, enfrentados a ingentes masas de datos, este tipo de ciencia -formulación de hipótesis, elaboración de un modelo y prueba experimental del modelo- se convierte, según Anderson, en algo obsoleto. Tanto la física -no sólo la clásica newtoniana, sino también la cuántica- como la biología que hemos venido elaborando son solo aproximaciones a la verdad, incapaces de dar cuenta de toda la complejidad de lo real. Hoy otro tipo de ciencia es posible. Los petabytes nos permiten afirmar: la correlación es suficiente. Podemos dejar de buscar modelos explicativos. Podemos analizar los datos sin necesidad de hipótesis, arrojar los números sobre conglomerados de potentes ordenadores y dejar que los algoritmos estadísticos encuentren regularidades y patrones que los científicos no son capaces de ver.

“Podemos analizar los datos sin necesidad de hipótesis, arrojar los números sobre conglomerados de potentes ordenadores y dejar que los algoritmos estadísticos encuentren regularidades y patrones que los científicos no son capaces de ver”

Ejemplos de esta nueva forma de hacer ciencia son la secuenciación genética aleatoria (shotgun sequencing) llevada a cabo a gran escala a principios de este siglo por el biólogo J. Craig Venter, que permitió descubrir nuevas formas de vida; o el programa Cluster Exploratory, una plataforma de computación distribuida a gran escala que se ha empleado para simular el cerebro y el sistema nervioso.
Y el artículo concluía hablando de una gran oportunidad: la nueva disponibilidad de ingentes masas de datos junto con las herramientas estadísticas capaces de triturar esos números, nos ofrecen una nueva forma de entender el mundo. La correlación sobrepasa a la causación y la ciencia puede avanzar sin ninguna necesidad de modelos coherentes ni de teorías unificadas.
Una visión como esta se anticipó ya -como he indicado- en el año 2008. Es decir, cuando el fenómeno del big data y del cloud computing estaba sólo en sus inicios, y en particular, cuando las redes sociales distaban mucho de ser lo que actualmente son. Hoy la disponibilidad de datos digitalizados no ya sobre el mundo físico sino sobre nuestra realidad social es muy superior a la de hace quince años, y esto no ha hecho más que empezar. Ni tampoco entonces se tenían a la vista los extraordinarios avances en el machine learning, el procesamiento del lenguaje natural y la “inteligencia artificial generativa” que venimos presenciando desde hace poco más de un año.
Y si, en atención a todo esto, nos paramos a pensar no en la ciencia o en el método científico en general, sino en lo que se ha venido conociendo como ciencia jurídica y método jurídico, podemos empezar a plantearnos posibles incidencias muy relevantes.
Dicho de la forma más directa: ¿realmente vamos a seguir necesitando juristas? ¿Es preciso cursar una larga y tediosa carrera de Derecho, memorizar textos legales, antecedentes históricos, precedentes judiciales, casos relevantes, teorías doctrinales, definiciones, esquemas y clasificaciones conceptuales, así como acumular años de experiencia profesional para poder actuar competentemente como juez, como abogado o como notario? ¿Es necesario que el agente u operador jurídico disponga en su cabeza de la imagen de un sistema jurídico: una estructura racionalmente consistente y tendencialmente coherente de principios generales, reglas sustantivas y procedimentales ordenadas jerárquicamente, así como de instituciones, conceptos, categorías, tipos…, en definitiva, un modelo mental de la realidad jurídica con el que enfrentarse y dar respuesta a los nuevos casos que se van planteando? ¿No está ya toda esa información en la nube?, ¿y no contamos ya o en breve vamos a contar con herramientas informáticas que permiten procesar mecánicamente toda esa información para encontrar en un instante correlaciones o patrones que pueden servir de base a decisiones apropiadas?

“Podemos también pensar en un dispositivo o programa de decisión jurídica que no subsuma casos en reglas ni precise de modelo o sistema conceptual alguno. Este dispositivo, alimentado por cientos de miles de textos de decisiones anteriores, operaría de forma inductiva y estadística, generando automáticamente soluciones sobre la base de similitudes o patrones detectados sin necesidad de ser previamente instruido sobre el significado o sentido de ninguna norma, principio o concepto jurídico, en suma, sin necesidad de ninguna teoría jurídica abstracta”

Más en concreto, ¿necesitamos seguir apegados a una lógica jurídica basada en normas, reglas o criterios generales y en el procedimiento lógico de la subsunción, del silogismo legal -que es una forma de deducción-, que genera un output mediante la aplicación de una regla general a un hecho o dato particular? Una forma de razonar como esta puede parecer, en una aproximación superficial, un tanto mecánica o algorítmica, pero no lo es realmente. Se trata de una tarea intelectualmente bastante compleja, que, en particular, requiere del aplicador del Derecho un entendimiento del significado de la norma, regla o criterio general y de su relación con los intereses o valores presentes en el caso particular a subsumir. Y también requiere una selección de la norma o regla que puede ser relevante para ese caso -de entre el conjunto ingente de normas de unos ordenamientos cada vez más complejos-, así como una percepción de los aspectos jurídicamente relevantes de entre un conjunto indiferenciado de circunstancias de hecho.
Pues bien, el traductor de Google, para traducir más que aceptablemente un texto, no necesita conocer ni comprender las reglas de la gramática de un idioma, porque su procedimiento de traducción no es nomológico sino empírico y estadístico, basado en la comparación y análisis matemático de masas enormes de textos como meras sucesiones de caracteres; y por ello mismo, tampoco requiere de conocimiento semántico alguno -sobre lo que significan para alguien esos textos que traduce-, ni tampoco de lo que los lingüistas conocen como “pragmática” -qué pretende conseguir nuestra expresión lingüística de su destinatario-. De la misma forma, podemos también pensar en un dispositivo o programa de decisión jurídica que no subsuma casos en reglas ni precise de modelo o sistema conceptual alguno. Este dispositivo, alimentado por cientos de miles de textos de decisiones anteriores, operaría de forma inductiva y estadística, generando automáticamente soluciones sobre la base de similitudes o patrones detectados sin necesidad de ser previamente instruido sobre el significado o sentido de ninguna norma, principio o concepto jurídico, en suma, sin necesidad de ninguna teoría jurídica abstracta.

“En la medida en que la IA ahora mismo en boga, basada en la combinación de big data y machine learning, es un caso de inducción automatizada y -podríamos decir- sobremusculada o con esteroides, la insuficiencia de esta tecnología para generar una verdadera inteligencia, una real capacidad cognitiva, sería algo estructural”

Incluso podríamos llegar a plantearnos si el Derecho, tal y como hoy lo conocemos -en esencia: normas en forma de textos prescriptivos promulgadas por los parlamentos o el poder ejecutivo, publicadas en diarios oficiales para su conocimiento general, y procedimientos dialécticos o argumentativos ante órganos decisorios independientes e imparciales que resuelven los conflictos entre particulares o entre estos y algún poder público mediante la aplicación de las normas generales a los casos concretos-, llegará a convertirse también en algo obsoleto. Una civilización fundamentada en la tecnología de la información puede disponer de formas mucho más sofisticadas y eficientes para el mantenimiento del orden social. Una psico-sociología basada en el big data y la estadística -como ya estamos experimentando- puede ser un instrumento para condicionar el pensamiento y la conducta de los seres humanos mucho más sutil y preciso que nuestros rudimentarios e ineficaces sistemas jurídicos tradicionales y sus toscos mecanismos de control y coerción.
Pero no es de este asunto, de orden más político, del que quiero aquí ocuparme, sino de la cuestión epistemológica que suscitaba el artículo de Chris Anderson, y de la respuesta que va a recibir en un reciente libro de título muy elocuente: “The Myth of Artificial Intelligence. Why Computers Can’t Think the Way We Do” (Harvard University Press, 2021, también hay edición en español de Shackleton Books, de octubre de 2022). Su autor es Erik J. Larson, un informático y emprendedor tecnológico estadounidense, fundador de dos startups del sector de la IA que merecieron recibir fondos de DARPA (la agencia estatal norteamericana para investigación tecnológica en defensa y que fue una de las promotoras de internet) y que se ha dedicado profesionalmente a esa relevante parcela de la IA que es la tecnología de procesamiento del lenguaje natural (NLP). Pero, además de su formación en ciencia de la computación y su experiencia en NLP -sabe de qué está hecha la salchicha de la IA-, ha estudiado filosofía y lógica, y esa interdisciplinariedad es lo que hace interesante su libro. Un libro que -no es difícil adivinarlo a la vista de su título- se muestra muy crítico con el proyecto científico y tecnológico de la IA y en particular con la muy extendida idea de que el advenimiento de una IA de nivel humano o incluso suprahumano -la “singularidad”, de la que ya habló un tanto crípticamente el científico John Von Neumann en los años cincuenta- es algo no sólo posible sino inevitable y casi inminente. La tesis del libro se puede resumir así: desde su mismo origen a mediados del siglo pasado los promotores del proyecto de la IA vienen incurriendo en el grave error intelectual de, por una parte, sobreestimar de forma muy poco científica la capacidad real de la IA en el estado del arte tanto de entonces como actual, y por otra parte, minusvalorar la inteligencia natural humana. Los espectaculares avances en este campo que tanta excitación están suscitando últimamente son solo manifestaciones de una IA estrecha, capaz de resolver problemas particulares -reconocimiento facial, clasificación de objetos, personalización de contenidos, transcripción de voz, traducción e incluso generación de texto y de imágenes-, pero que no nos acercan realmente a una IA de tipo general o humano, pues para lograr esta es necesario superar obstáculos que ahora mismo no sabemos ni cómo tratar.

“El problema del conocimiento no es cuantitativo. La disponibilidad de más datos, de nuevos datos, nos puede ayudar a detectar que un determinado modelo explicativo es erróneo, pero no nos ofrece por sí sola una nueva explicación. Para ello debemos reinterpretar de forma conjunta los datos anteriores con los nuevos. Debemos atribuir un significado a los datos. Es decir, necesitamos elaborar un nuevo modelo”

En fundamento de esta posición Larson invoca la autoridad del filósofo y polímata norteamericano de finales del siglo XIX y principios del XX Charles Sanders Peirce -del que ya me ocupé en un artículo anterior publicado en esta revista- para sostener que la inteligencia diferencial humana no es aquella que se manifiesta en los procesos lógicos de la deducción (que se limita a hacer explícito el conocimiento que estaba ya implícito en unas premisas) o de la inducción (que pretende obtener un conocimiento general partiendo de la acumulación de observaciones singulares) -dos tipos de procesos que ya hemos sido capaces de computerizar con éxito-, sino en lo que aquel llamó la abducción: nuestra habilidad para conjeturar, para concebir una hipótesis explicativa a la vista de unos determinados datos. Esta capacidad no solo es el motor de la innovación científica, sino que está presente en toda nuestra actividad inteligente cotidiana, en particular en la comprensión del lenguaje natural. Y como -ya antes que Peirce- advirtió Edgar Allan Poe en las reflexiones con las que abría su célebre relato “Los crímenes de la calle Morgue” (la primera obra del género literario detectivesco), “lo importante es saber lo que debe ser observado”, y también “las condiciones mentales que suelen considerarse como analíticas, son, en sí mismas, poco susceptibles de análisis”. O como dice Larson, “el único tipo de inferencia -o de pensamiento, en otras palabras- que funcionaría para una IA de nivel humano (o cualquier cosa próxima a esta) es justo aquella de la que no tenemos ninguna pista sobre cómo programar o diseñar”; “el problema de la inferencia abductiva confronta a la IA con su principal reto, todavía completamente no resuelto”.MGM ilustre
En la medida en que la IA ahora mismo en boga, basada en la combinación de big data y machine learning, es un caso de inducción automatizada y -podríamos decir- sobremusculada o con esteroides, la insuficiencia de esta tecnología para generar una verdadera inteligencia, una real capacidad cognitiva, sería algo estructural. Esto enlaza con la cuestión planteada por Chris Anderson, de la que este libro se ocupa por extenso: la pretensión de que las máquinas por sí solas, poniendo a su disposición una cantidad suficiente de datos, son capaces de hacer avanzar nuestro conocimiento científico. Al respecto, un fragmento como este resulta absolutamente revelador: “Cuando Copérnico sostuvo que la tierra giraba alrededor del sol y no a la inversa, tuvo que ignorar montañas de evidencias y datos acumulados durante siglos por astrónomos trabajando con el modelo ptolemaico. Él rediseñó todo con el sol en el centro y fabricó un modelo heliocéntrico usable. Y muy importante, el modelo copernicano inicial resultaba menos predictivo pese a ser más correcto. Inicialmente solo fue un marco que, una vez completado, podía ofrecer explicaciones elegantes para reemplazar a las crecientemente enrevesadas, como el movimiento planetario retrógrado, que proliferaban en el modelo ptolemaico. Solo partiendo de ignorar todos los datos o reconceptualizándolo pudo Copérnico rechazar el modelo geocéntrico e inferir una estructura radicalmente nueva para el sistema solar”. Y concluye: “¿cómo podía haber ayudado el “big data”. Todos los datos encajaban en el modelo equivocado”.

“Deslumbrados por el mito, atribuimos a estos sistemas unas capacidades cognitivas de las que realmente carecen, lo que nos puede llevar a delegar en ellos unas competencias decisorias sobre cuestiones humanas que exceden de su capacidad”

En definitiva, el problema del conocimiento no es cuantitativo. La disponibilidad de más datos, de nuevos datos, nos puede ayudar a detectar que un determinado modelo explicativo es erróneo, pero no nos ofrece por sí sola una nueva explicación. Para ello debemos reinterpretar de forma conjunta los datos anteriores con los nuevos. Debemos atribuir un significado a los datos. Es decir, necesitamos elaborar un nuevo modelo.
De acuerdo con ello, Larson considera desacertado el planteamiento de proyectos como el Human Brain Project, financiado millonariamente por la UE, o el B.R.A.I.N., promovido aún más generosamente por la administración Obama en Estados Unidos, con los que se pretende resolver el misterio de la mente y el pensamiento humano a base de ingentes masas de datos digitales de actividad neuronal y de clusters de supercomputadores dedicados a computar y generar una simulación digital de nuestro cerebro, lo que supone, en último término, reemplazar la neurociencia por un ejercicio de ingeniería informática. La ciencia de la mente humana y la tecnología de la información entrarían en un bucle de retroalimentación que terminaría siendo un círculo vicioso: de la superinteligencia que inevitablemente -según el mito- ha de resultar del incremento tanto del poder de computación como de la cantidad de datos procesados nos va a venir el conocimiento clave que todavía nos falta para entender cómo funciona nuestra mente biológica, cuando es precisamente ese conocimiento el que necesitaríamos para diseñar esa IA que nos va a aportar ese descubrimiento, y así, ad infinitum.
La conclusión final es que nuestra visión mítica de la IA es no solo un lastre para el progreso científico -por devaluar el significado de la genuina innovación intelectual humana, por pensar que muchos ordenadores muy potentes y muchos datos van a hacer innecesarias las buenas ideas de un Copérnico o un Einstein-, sino que también entraña una amenaza para nuestra sociedad y los intereses y valores humanos: no tanto porque las máquinas vayan a dominarnos para ponernos al servicio de sus propios propósitos -otro de los elementos de esta mitología-, sino más bien porque, deslumbrados por el mito, atribuimos a estos sistemas unas capacidades cognitivas de las que realmente carecen, lo que nos puede llevar a delegar en ellos unas competencias decisorias sobre cuestiones humanas que exceden de su capacidad.
Qué enseñanza podemos obtener de todo esto los juristas es algo que dejo ya a juicio del lector.

Palabras claves: Método científico, Modelos explicativos, Correlación, Causación, Sistema jurídico, Machine Learning, Big data, Inteligencia artificial, Inducción, Abducción.
Keywords: Scientific method, Explanatory models, Correlation, Causation, Legal system, Machine Learning, Big data, Artificial intelligence, Induction, Abduction.

Resumen

En un artículo publicado en la revista Wired en el año 2008 Chris Anderson anunció el advenimiento de una nueva forma de ciencia consistente en el empleo de conglomerados de superordenadores para el análisis estadístico de las masas ingentes de datos digitalizados de que ahora disponemos, lo que vendría a hacer obsoleto el método científico tradicional y el papel que en este venían desempeñado los modelos teóricos ideados por los científicos para dar explicación de los fenómenos tanto naturales como sociales. En el presente artículo se plantea la cuestión de si este cambio epistemológico podría tener vigencia también en el ámbito jurídico, haciendo prescindible para la aplicación del derecho la teoría y el método jurídico y en definitiva el protagonismo del jurista humano. En relación con este tema, a la posición de Anderson se contrapone la de Erik J. Larson, que en su reciente libro “El mito de la inteligencia artificial” somete a crítica la pretensión de atribuir a la modalidad de IA actualmente en boga, resultante de combinar machine learning con big data, unas capacidades cognitivas que superan sus posibilidades reales en el presente estado del arte.

Abstract

In an article published in Wired magazine in 2008, Chris Anderson announced the advent of a new form of science consisting of the use of clusters of supercomputers to perform a statistical analysis of the vast amounts of digitized data available to us today, which render obsolete both the traditional scientific method, and the role within it of explaining both natural and social phenomena played by the theoretical models devised by scientists. This article raises the question of whether this epistemological change could also have an impact in the legal sphere, making legal theory and method and ultimately the role of the human jurist dispensable in the application of law. Anderson's position is contrasted with that of Erik J. Larson, who in his recent book "The Myth of Artificial Intelligence" criticises the current trend towards attributing to artificial intelligence, which is the result of a combination of machine learning and big data, cognitive capabilities that exceed its real potential in the current state of the art.

El buen funcionamiento de esta página web depende de la instalación de cookies propias y de terceros con fines técnicos y de análisis de las visitas de la web.
En la web http://www.elnotario.es utilizamos solo las cookies indispensables y evaluamos los datos recabados de forma global para no invadir la privacidad de ningún usuario.
Para saber más puede acceder a toda la información ampliada en nuestra Política de Cookies.
POLÍTICA DE COOKIES Rechazar De acuerdo